摘要。机器学习(ML)和算法信息理论(AIT)从不同的角度探讨了复杂性。我们通过通过稀疏内核流的方法对学习内核,内核岭回归中学习核的问题,在数据中学习核的问题,探索AIT和内核方法之间的接口(在ML中普遍存在)。特别是,通过查看最小描述长度(MDL)和机器学习(RML)的正则化之间的差异和共同点,我们证明稀疏核流的方法是采用自然的方法,可以从数据中学习内核。这种方法与MDL原理保持一致,比现有对交叉验证的依赖更加强大的理论基础。该研究表明,得出稀疏的内核流不需要统计方法。取而代之的是,人们可以直接参与代码长度和复杂性,这是AIT中心的概念。因此,这种方法为使用AIT的工具重新制定机器学习算法打开了大门,目的是为它们提供更扎实的理论基础。
![arxiv:2311.12624v3 [cs.lg] 2024年4月10日PDF文件第1页](/bimg/3/314ea67767b6e9ce592e455dc40ca7cb57e59675.webp)
![arxiv:2311.12624v3 [cs.lg] 2024年4月10日PDF文件第2页](/bimg/4/4979c8d56dc037ec8fc4b480be7cbaa4521bd162.webp)
![arxiv:2311.12624v3 [cs.lg] 2024年4月10日PDF文件第3页](/bimg/3/304b491b72a26857f18768c86ea0e83b147b90a1.webp)
![arxiv:2311.12624v3 [cs.lg] 2024年4月10日PDF文件第4页](/bimg/f/f4e2a5bec1ebf8a78480a2d2b3068b56e3f7135c.webp)
![arxiv:2311.12624v3 [cs.lg] 2024年4月10日PDF文件第5页](/bimg/7/73045761b9e9a48dc745fadce893b27b16517f72.webp)
